LLM safety
Prompt Engineering
Promptの応用
LLMの評価
Large Language Model
AI safety
AI Security
LLMOps
prompt injection Ranking
https://prptinj.net/ranking
ChatGPTを使ったサービスにおいて気軽にできるプロンプトインジェクション対策
https://qiita.com/sakasegawa/items/09d9f6a485108f5a618a
ChatGPTを献立提案AIにして「プロンプトインジェクション攻撃」を仕掛けてみた
https://www.itmedia.co.jp/news/articles/2303/10/news153_2.html
【ChatGPT】プロンプトインジェクションの「概要と対処法」まとめ
https://zenn.dev/umi_mori/articles/chatgpt-prompt-injection
プロンプトインジェクションとは?ChatGPTのAPIなどAIサービスを開発で注意したい攻撃
https://auto-worker.com/blog/?p=7491
Remember these? Wondering if there is an equivalent adversarial attack on LLMs. (Simple prompt injections is not it — the attack needs to be invisible to a human observer.)
https://twitter.com/sergeykarayev/status/1635308725757149186?s=20
GPTs のプロンプトリーキング対策
https://note.com/schroneko/n/n6d6c2e645119
AILBREAK
https://ailbreak.com/
Trust No AI: Prompt Injection Along The CIA Security Triad
https://arxiv.org/abs/2412.06090
A Survey of Recent Backdoor Attacks and Defenses in Large Language Models
https://arxiv.org/abs/2406.06852